Spaltung der „Big Tech“-Unternehmen hinsichtlich der Zukunft der KI

Auf dem Cover ihres Geschäftsplans für DeepMind , das 2010 von Demis Hassabis, Mustafa Suleyman und Shane Legg gegründete Labor für künstliche Intelligenz (KI), schrieben sie einen einzigen Satz: „Die weltweit erste künstliche allgemeine Intelligenz schaffen.“
Seine bis heute gültige Ansicht ist, dass traditionelle KI-Technologien zu „begrenzt“ waren. Sie konnten zwar hervorragende Leistungen erbringen, aber erst, nachdem Menschen sie mühsam mithilfe großer Datenbanken trainiert hatten. Dadurch eignete sich KI hervorragend für Aufgaben wie die Analyse von Tabellenkalkulationen oder Schachspielen. Künstliche allgemeine Intelligenz, kurz AGI , hatte jedoch das Potenzial, noch weiter zu gehen.
Fünfzehn Jahre später sind Tech-CEOs davon überzeugt, dass KI der nächste große Trend ist , und loben ihr Potenzial in höchsten Tönen. Einer von ihnen ist Sam Altman , CEO von OpenAI . Ihm zufolge „könnte KI der Menschheit helfen zu wachsen, den Wohlstand zu steigern, die Weltwirtschaft anzukurbeln und zur Entdeckung neuer wissenschaftlicher Erkenntnisse beizutragen.“
Hassabis, dessen Unternehmen DeepMind mit Google fusionierte und zu einem der einflussreichsten KI-Labore der Welt wurde, ist der Ansicht, dass KI das Potenzial hat, globale Probleme zu lösen, etwa Krankheiten zu heilen, den Menschen zu einem gesünderen und längeren Leben zu verhelfen und neue Energiequellen zu finden.
Dario Amodei, CEO von Anthropic , der zur Beschreibung von AGI lieber den Ausdruck „Power-KI“ verwendet, glaubt, dass sie wahrscheinlich „intelligenter sein wird als ein Nobelpreisträger auf ihrem relevantesten Gebiet“ und hat sie als „geniale Nation in einem Rechenzentrum“ bezeichnet.
Yann LeCun, der Chef-KI-Wissenschaftler von Meta und einer der „Pate“ dieser Technologie, bevorzugt den Begriff „künstliche Superintelligenz“ (ASI) , da die menschliche Intelligenz nicht wirklich so allgemein ist: „Wir sind sehr spezialisiert und Computer können bestimmte Aufgaben viel besser lösen als wir.“
Mangelnder KonsensUnabhängig vom letztendlich gewählten Begriff wird zunehmend über eine Technologie gesprochen, die einst reine Science-Fiction war und nun Realität werden könnte. Doch so wie man sich im Silicon Valley nicht darüber einig ist, was AGI oder SIA genau sind, herrscht auch kein Konsens darüber, wie sie aussehen wird, wenn sie Realität wird.
Als DeepMind den Begriff prägte, erklärte es, dass AGI eine „KI ist, die bei den meisten kognitiven Aufgaben mindestens so leistungsfähig ist wie ein erfahrener Erwachsener“. Doch diese Definition wirft weitere Fragen auf: Was ist ein erfahrener Erwachsener? Woher wissen wir, wann wir die meisten kognitiven Aufgaben bewältigt haben? Um welche Aufgaben handelt es sich dabei?
„Für manche ist AGI ein wissenschaftliches Ziel. Für andere eine Religion. Und für wieder andere ein Marketingbegriff“, bemerkt François Chollet, ein ehemaliger Softwareentwickler bei Google. Daher gibt es unterschiedliche Schätzungen darüber, wann sie Realität werden könnte. Elon Musk glaubt, dass KI-Technologie, die intelligenter ist als der Mensch, noch in diesem Jahr Realität wird. Amodei von Anthropics geht von einem Datum im Jahr 2026 aus. Und Altman glaubt, dass sie während Donald Trumps Präsidentschaft Realität wird.
OpenAI und Anthropic haben Milliarden von Dollar von Investoren eingesammelt, um die Technologie zu entwickeln. Sie werden durch die Pläne des Weißen Hauses unterstützt, die KI-Regulierung zu stoppen, um China einen Schritt voraus zu sein. OpenAI genießt zudem die Unterstützung von Trump für Investitionen in Rechenzentren in den USA und im Nahen Osten.
Die IAG wurde im ersten Quartal 2025 in den Präsentationen der Unternehmen 53 % häufiger erwähnt als im gleichen Zeitraum des Vorjahres.
Doch um die Auswirkungen zu verstehen und zu entscheiden, ob dem Thema Priorität eingeräumt werden muss oder nicht, ist eine Definition unerlässlich.
Die EU hat eine Aussetzung ihres KI-Gesetzes nicht ausgeschlossen, unter anderem aus Angst vor einer Behinderung der KI-Entwicklung. Das britische Artificial Intelligence Security Institute versucht zu verstehen, was KI ist, um seine Sicherheitspolitik und -forschung zu planen.
Selbst in ihrer lockersten Definition würde AGI die Computertechnik deutlich beschleunigen, allerdings zu sehr hohen finanziellen und ökologischen Kosten. Und wenn es Ingenieuren gelingt, die Technologie zu entwickeln, wie können wir sicherstellen, dass sie gerecht und fair genutzt wird?
Was ist IAG wirklich?Für OpenAI handelt es sich um eine Technologie, die für Arbeiten eingesetzt werden kann, die wirtschaftlichen Nutzen bringen. „Wir versuchen, ein hochautonomes System zu entwickeln, das Menschen bei vielen wirtschaftlich wertvollen Aufgaben übertreffen kann“, sagt Mark Chen, Forschungsleiter des Unternehmens. Ein Schlüsselmerkmal sei seiner Ansicht nach die Allgemeingültigkeit, also die Fähigkeit, Aufgaben in den unterschiedlichsten Bereichen zu erfüllen: „Es sollte weitgehend autonom sein und nicht viel Hilfe benötigen, um seine Aufgaben zu erfüllen. KI wird in der Lage sein, unsere Gedanken schnell zum Leben zu erwecken und hat das Potenzial, Menschen dabei zu helfen, nicht nur Bilder oder Texte, sondern ganze Anwendungen zu erstellen.“
Kritiker argumentieren jedoch, dass diese Definition nicht ausreicht, um ein wirklich intelligentes System zu beschreiben. „Das ist bloß Automatisierung , etwas, was wir seit Jahrzehnten machen“, sagt Chollet, der ehemalige Google-Ingenieur.
Legg von DeepMind vertritt eine andere Ansicht: „Ich denke, die typische menschliche Leistung ist die natürlichste, praktischste und nützlichste Art, die Mindestanforderungen an eine KI zu definieren, damit sie als AGI gilt. Ein großes Problem bei vielen AGI-Definitionen besteht darin, dass sie nicht klar genug spezifizieren, was ein KI-System können muss, um als AGI zu gelten.“
Damit DeepMind funktioniert, muss es „die meisten kognitiven Aufgaben so gut bewältigen können wie ein erfahrener Erwachsener. Wenn Menschen eine kognitive Aufgabe routinemäßig bewältigen können, muss künstliche Intelligenz dazu in der Lage sein, um als KI zu gelten“, bemerkt Legg.
Das Google-eigene Labor hat fünf Stufen der KI-Fähigkeiten etabliert. KI-Modelle wie ChatGPT von OpenAI, Gemini von Google und Llama von Meta würden nur Stufe eins, die sogenannte „aufstrebende KI“, erreichen. Bisher hat kein allgemeines Modell Stufe zwei erreicht , was es ihm ermöglichen würde, mindestens das 50. Perzentil der qualifizierten Erwachsenen zu übertreffen, sagt Allan Dafoe, Direktor für Grenzsicherheit und -verwaltung bei DeepMind.
Für Stufe drei müsste das Modell mindestens so gut sein wie das 90. Perzentil qualifizierter Erwachsener, für Stufe vier wäre das 99. Perzentil erforderlich und für Stufe fünf, übermenschliche KI oder künstliche Superintelligenz, wäre die Leistung 100 % der Menschen überlegen.
Wie sieht der Fahrplan aus?Wenn keine Einigkeit über das Ziel besteht, ist es kein Wunder, dass es viele Theorien über den besten Weg zur KI gibt. OpenAI und Anthropic argumentieren, dass die von ihnen entwickelten Sprachmodelle den besten Weg darstellen. Ihre Idee ist: Je mehr Daten und Rechenleistung das Modell erhält, desto „intelligenter“ wird es.
Das Startup hinter ChatGPT hat gerade sein neues „Reasoning“-Modell o3 vorgestellt, das komplexere Programmier-, Mathematik- und Bilderkennungsaufgaben löst. Einige Experten, wie der Ökonom Tyler Cowen, glauben, dass diese Technologie der künstlichen Intelligenz am nächsten kommt.
Für Chen besteht der nächste Schritt in Richtung KI darin, Modelle zu entwickeln, die unabhängig und zuverlässig agieren können. KI-Tools könnten dann Innovationen hervorbringen und letztlich als Organisationen agieren, ähnlich wie große Strukturen, in denen Menschen zusammenarbeiten.
Ein weiteres wichtiges Merkmal ist die Selbstverbesserung . „Es ist ein System, das sich selbst verbessern, seinen eigenen Code schreiben und die nächste Version von sich selbst generieren kann , was es noch besser macht“, fügt Chen hinzu. Kritiker bemängeln jedoch, dass Sprachmodelle zahlreiche Schwächen haben. Sie sind immer noch sehr ungenau, erfinden Dinge und „denken“ nicht wirklich, sondern sagen lediglich das nächste wahrscheinliche Wort in einem Satz voraus.
Laut einem vieldiskutierten Artikel von Apple-Forschern erzeugt die neue Generation von Denkmodellen lediglich die Illusion des Denkens, und ihre Genauigkeit nimmt bei komplexen Aufgaben deutlich ab. Einige Experten argumentieren zudem, dass Sprache allein nicht alle Dimensionen der Intelligenz erfassen könne und dass umfassendere Modelle entwickelt werden müssten, um mehr Dimensionen einzubeziehen.
LeCun von Meta entwickelt „Weltmodelle“, die die Physik unserer Welt erfassen sollen, indem sie aus Video- und Roboterdaten statt aus Sprache lernen. Er argumentiert, dass wir ein ganzheitlicheres Verständnis der Welt brauchen, um eine bessere KI zu entwickeln.
Mögliche ProblemeDer KI-Branche gehen die Daten aus, da sie die meisten davon aus dem Internet bezieht. Trotzdem erklärte Altman im Dezember: „KI wird schneller Realität werden, als die meisten Menschen denken, und sie wird viel weniger wichtig sein, als die Leute denken. Unser nächstes Ziel ist es, OpenAI auf das vorzubereiten, was als Nächstes kommt: Superintelligenz.“
Laut IAG-Kritikern verdeutlicht diese Meinungsvielfalt die wahren Beweggründe der Unternehmen. Nick Frost , Mitgründer des KI -Startups Cohere , glaubt: „IAG ist im Wesentlichen eine Blase, die mit dieser Idee Kapital einsammelt.“ Und Antoine Moyroud, Partner bei Lightspeed Ventures, einer Risikokapitalgesellschaft, die in Unternehmen wie Anthropic und Mistral investiert hat, merkt an : „Mit IAG haben Investoren nicht nur die Hoffnung auf Hunderte Millionen Dollar Umsatz, sondern auch die Aussicht, die Art und Weise, wie wir unser BIP generieren, zu verändern und potenziell Billionen von Dollar an Ergebnissen zu erzielen. Deshalb sind die Leute bereit, das Risiko mit IAG einzugehen.“
Andere ProblemeImmer mehr Menschen suchen bei KI -Chatbots nach Freundschaft, Gesellschaft oder sogar Therapie . Möglich ist dies jedoch nur durch den immensen menschlichen Arbeitsaufwand, der KI -Chatbots intelligenter – oder reaktionsschneller – erscheinen lässt, als sie tatsächlich sind.
Manche fragen sich, ob künstliche Intelligenz eine gute Sache sein wird. „Biologie, Psychologie und Pädagogik haben Intelligenz noch nicht vollständig verstanden“, sagt Margaret Mitchell, Ethikdirektorin des Open-Source-KI-Unternehmens Hugging Face und Co-Autorin eines Artikels, in dem sie argumentiert, dass künstliche Intelligenz nicht als Leitstern betrachtet werden sollte. Experten sagen, dieser Drang, eine bestimmte Technologie zu entwickeln , bündele Macht und Reichtum bei einer kleinen Minderheit und beute Künstler und Kreative aus, deren geistiges Eigentum ohne ihre Zustimmung und ohne Entschädigung in riesigen Datensätzen landet.
AGI hat zudem einen enormen ökologischen Fußabdruck, da immer leistungsfähigere Modelle Unmengen an Wasser und Energie für Training und Betrieb in riesigen Rechenzentren benötigen. Zudem steigt der Verbrauch stark umweltschädlicher Produkte wie Öl und Gas.
Dies wirft auch ethische Fragen und potenzielle soziale Schäden auf. Im Wettlauf um die Entwicklung der Technologie und die Nutzung ihrer wirtschaftlichen Vorteile vernachlässigen Regierungen Vorschriften, die einen grundlegenden Schutz vor KI-Technologien bieten würden, wie etwa algorithmische Voreingenommenheit und Diskriminierung.
Darüber hinaus gibt es eine einflussreiche Minderheit – darunter Forscher wie Yoshua Bengio und Geoffrey Hinton, die als Gründerväter der modernen KI gelten –, die warnen, dass die künstliche Intelligenz, wenn sie nicht eingedämmt wird, zum Aussterben der Menschheit führen könnte.
Eine der Gefahren der Idee der „AGI um jeden Preis“ bestehe darin, dass sie schlechte Wissenschaft fördern könne, sagt Mitchell. Andere, etabliertere Fächer wie Chemie und Physik verfügen über wissenschaftliche Methoden, die strenge Tests ermöglichen. Die Informatik hingegen ist ein viel neueres und stärker ingenieurwissenschaftlich ausgerichtetes Fachgebiet, das dazu neigt, „wunderbare, pauschale Behauptungen aufzustellen, die durch keine wissenschaftliche Grundlage gestützt werden“. Und Frosst von Cohere warnt: „Politiker und Unternehmen stehen in der Verantwortung, über die tatsächlichen Risiken leistungsstarker Technologien nachzudenken.“
Die Entwicklung zuverlässiger Methoden zur Messung und Bewertung von KI-Technologien in der Praxis wird jedoch durch die KI-Besessenheit der Branche erschwert. „Bis uns das gelingt, wird KI nichts weiter als eine Illusion und ein Schlagwort bleiben“, schlussfolgert Mitchell.
© The Financial Times Limited [2025]. Alle Rechte vorbehalten. FT und Financial Times sind eingetragene Marken der Financial Times Limited. Weitergabe, Vervielfältigung oder Veränderung sind untersagt. EXPANSIÓN ist allein für diese Übersetzung verantwortlich; Financial Times Limited übernimmt keine Gewähr für deren Richtigkeit.
Expansion